登入
關鍵字
#Google AI
官方認證
RexAA
2026/03/31
•
Google副總裁直言:AI轉型已經結束,真正的分化才剛開始
如果你還在想:AI什麼時候真正改變世界?我要不要現在開始學?這波浪潮會不會過去?那你可能已經慢了一步。在一期訪談中,Google研究院負責人Yossi Matias給出了一個非常明確的判斷:“AI的轉折點已經過去了,只是大多數人沒有意識到。”更關鍵的是——👉 真正的差距,現在才開始拉開。不是公司之間,而是:人與人之間。一、一個人,正在幹掉一個團隊過去你可能聽過一句話:👉 “一個人就是一家公司”但現在,這已經不是口號,而是現實。資料很直接:近幾年 👉 30%左右的新公司是“單人創辦”更誇張的是:👉 這些人做的事情,過去需要10人、100人團隊為什麼?因為AI正在做三件事:替你寫程式碼替你分析資料替你執行任務結果就是:一個人 + AI = 一個團隊二、6個正在重寫工作方式的趨勢(非常關鍵)這場對話中,最有價值的是這6個趨勢。它們不是未來,而是已經發生的現實。1️⃣ AI Agent:從“問答工具”變成“執行系統”大多數人還在用AI聊天。但真正的變化是:👉 AI開始替你“做事”比如:自動分析資料跟蹤社交媒體趨勢每天生成報告管理你的任務流甚至可以跨系統運行:👉 郵件、日曆、CRM、研究全部打通研究顯示:👉 35%的生產力提升,來自這種“上下文感知Agent”這意味著什麼?會用Agent的人,不是更快,而是在做“更高維的工作”。2️⃣ Vibe Coding:不會寫程式碼,也能做產品這是目前最被低估的變化。所謂Vibe Coding,就是:👉 你用自然語言描述,AI幫你寫完整程式碼真實案例:一個不會程式設計的人周二有想法周四做出產品甚至Google正在做“生成式UI”:👉 一句話 → 一個完整應用(介面+邏輯)這意味著:“想法無法實現”這個門檻,已經被抹平了。3️⃣ 技能正在重排:最重要的不是“會什麼”,而是“怎麼想”很多人以為:👉 AI時代要拼技術但Google給出的答案完全不同:他們最看重的,是思考、適應和學習能力尤其是一個能力:👉 判斷力(Judgment)為什麼?因為:AI可以給你100個答案但它不會告訴你那個是對的所以真正拉開差距的,是:👉 你問什麼問題 + 你如何做選擇4️⃣ 環境智能(Ambient Intelligence):AI正在“消失”有一個非常重要的趨勢:👉 AI會變得“看不見”就像:自動補全翻譯語音識別你已經習慣它們存在,但不會再意識到它們。這就是:“環境智能”——技術最強的時候,是你感覺不到它的存在。但這帶來一個變化:👉 標準被整體抬高現在職場中:精美PPT深度分析高品質報告已經不再是加分項,而是基本要求5️⃣ 教育被重寫:每個人都有“私人導師”AI正在徹底改變學習方式:同一內容 → 不同表達方式同一知識 → 不同難度版本同一主題 → 視訊、圖解、對話等多形式比如:👉 用足球解釋“重力”給孩子聽這意味著:未來的孩子,將擁有“10年的認知優勢”。6️⃣ 不可能的問題,正在被快速解決最震撼的一個案例:👉 洪水預測系統過去被認為“不可能”:資料太複雜變數太多但現在:覆蓋150個國家服務20億人提前7天預警完成時間:👉 不到5年這說明一件事:AI正在把“不可能”變成“常規”。三、一個殘酷現實:差距正在指數級擴大很多人覺得:AI會讓世界更公平。但現實是:👉 差距在加速擴大原因很簡單:會用AI的人 → 效率提升10倍不會用的人 → 原地不動甚至更關鍵的是:👉 真正領先的人,不只是“用AI”,而是“和AI一起工作”資料也在印證:與AI深度協作的人 👉 收入增長更快四、Google在2026年真正招聘什麼人?這個問題非常重要。答案不是:❌ 會某個工具 ❌ 會某種技術而是三類能力:1️⃣ 思考能力你是否能理解問題本質?2️⃣ 適應能力你是否能在工具變化中持續進化?3️⃣ 學習能力你是否能比技術變化更快地更新自己?換句話說:公司不再僱傭“會做事的人”,而是僱傭“會進化的人”。五、如何在這場分化中“站在前面”?(核心建議)最後,把這場訪談壓縮成3個可執行策略:1️⃣ 從“使用AI”升級到“建構AI工作流”不要只問問題。要開始:搭建Agent自動化流程讓AI幫你持續產出2️⃣ 訓練你的“判斷力”每天練習:什麼是好?什麼是有效?什麼值得做?👉 這是AI無法替代的核心能力3️⃣ 保持“高頻試錯”最領先的人,不一定最聰明。但一定是:👉 最愛嘗試新工具的人結語:真正的競爭,不在AI,而在你這場對話最值得反覆思考的一句話是:“趨勢正在發生,不管你是否參與。”AI不會等你準備好。世界也不會。真正的問題只有一個:👉 你是利用AI放大自己,還是被AI甩在後面?最後,留給你一個問題:如果一個人 + AI = 一個團隊那你現在,算不算一個“團隊”? (顧真emancipate)
#Google
#AI轉型
#單人創辦
190人
讚
留言
分享
官方認證
美股艾大叔
2026/03/28
•
蘋果宣佈iOS27向第三方AI助手開放Siri,Google發佈Gemini 3.1 Flash Live, 月之暗面啟動赴港IPO準備,中國AI日均Token呼叫量突破140兆
科技圈繼續被AI的浪潮裹挾。蘋果宣佈向競爭對手AI助手開放Siri生態,徹底打破了與OpenAI的獨家合作;Google同日推出Gemini 3.1 Flash Live,在語音AI領域發起猛烈攻勢。與此同時,中國科協針對NeurIPS學術歧視發表強硬聲明,國產半導體裝置在SEMICON China 2026上集中亮相,AI對消費電子供應鏈的衝擊持續加深——手機漲價潮已從部分品牌蔓延至全行業。這是一個平台競爭白熱化、AI賦能從虛擬走向物理世界的關鍵節點。巨頭動向1. 蘋果宣佈iOS 27向第三方AI助手開放Siri,終結OpenAI獨家合作蘋果宣佈將在iOS 27中通過新的"Extensions"系統,允許使用者將Google Gemini、Anthropic Claude等競爭對手的AI助手整合到Siri中,結束與OpenAI的獨家合作關係。與此同時,蘋果正在開發自有聊天機器人"Campos",由GoogleGemini模型提供支援,預計在6月WWDC上亮相。這一戰略轉向標誌著蘋果從封閉AI生態走向開放平台,將AI助手的選擇權交還給使用者。2. Google發佈Gemini 3.1 Flash Live,全面鋪開Search LiveGoogle在本周AI領域動作最為密集。旗艦新品Gemini 3.1 Flash Live支援90多種語言即時語音互動,內建SynthID水印技術用於識別AI生成音訊。Google還在全球200多個國家推出Search Live,使用者可通過攝影機和語音進行即時對話式搜尋,並將即時耳機翻譯功能擴展至iOS裝置。此外,Google新增了將其他AI應用的完整聊天歷史匯入Gemini的功能,明顯意在降低使用者遷移門檻,搶奪AI生態入口。3. 中國科協強硬回應NeurIPS學術歧視,停止資助申請中國科學技術協會3月27日發佈聲明,即日起停止受理學者參加2026年NeurIPS(神經資訊處理系統大會)的資助申請,已提交的申請轉至國內學術會議或尊重中國學者權益的國際會議。同時,收錄於2026年NeurIPS的論文在申請中國科協所有項目時不予認可。此舉背景是NeurIPS在徵稿指南中將部分被列入美國"實體清單"的中國機構排除在外,引發學術界廣泛抗議。多位國際學者已拒絕擔任NeurIPS領域主席以示反對。產品與市場4. 手機漲價潮加速蔓延,OPPO、vivo部分機型漲500元受AI算力需求驅動儲存晶片價格暴漲影響,消費電子漲價潮持續發酵。OPPO及旗下品牌一加自3月16日起上調部分機型價格500元,vivo及iQOO自3月18日起跟進,中高端機型漲幅超500元。IDC預測2026年全球智慧型手機出貨量將同比下滑12.9%,創史上最大年度跌幅,新機平均售價上漲14%。DRAM價格同比漲幅達369%,記憶體在手機整機成本中的佔比從10%-15%飆升至30%-40%。小米、榮耀、華為暫未官宣漲價,但管道端已現調價預期。5. 月之暗面啟動赴港IPO準備,AI獨角獸加速資本化AI獨角獸月之暗面(Kimi)已啟動香港IPO早期準備工作。據彭博社3月26日報導並獲內部證實,公司自2025年底起已開始內部審查和成本核算,並已與中金公司、高盛集團就潛在IPO事宜進行磋商。當前月之暗面正處於AI商業化關鍵窗口期,Kimi創始人楊植麟在中關村論壇年會演講中提出"生產力會變成Agent,Agent會產生Token,Token在一定程度上等價於GDP"的核心觀點。6. AWE 2026落幕:AI家電打開兆增長空間,居家機器人成新賽道2026中國家電及消費電子博覽會(AWE 2026)在上海閉幕,1200家企業參展。海爾推出可剝香蕉、放洗衣、折疊衣物的人形機器人,海信發佈可跨家電聯動的輪式管家機器人。IDC預測2026年中國智能家居裝置出貨量將達3億台,同比增長8.8%。人形機器人單價已降至20萬元以內,家用機器人單價低於10萬元。智能眼鏡賽道同樣火熱,2025年中國出貨量預計達275萬台,同比增長107%。AI前沿7. 具身智能領域首個行業標準正式發佈,6月1日起實施中國資訊通訊研究院聯合40余家單位共同起草的具身智能領域首個行業標準於3月26日正式發佈,將於6月1日實施。該標準建構了統一的基準測試框架,已建成1萬多條測試任務庫,覆蓋工業、家庭、零售、物流等300種任務類型,提供資料採集、模擬任務生成、指標自動化計算等測試工具。這一標準的出台填補了具身智能領域行業規範空白,標誌著人形機器人評測進入"有標可依"新階段。8. 中國AI日均Token呼叫量突破140兆,兩年增長超千倍央視網報導,2026年3月中國日均Token呼叫量已突破140兆,較2024年初的1000億增長超千倍。OpenRouter平台資料顯示,中國AI大模型周呼叫量達4.69兆Token,連續兩周超越美國,全球呼叫量排名前三均被中國模型包攬。摩根大通預測,中國AI推理Token消耗量將從2025年約10千兆增至2030年約3900千兆,五年增長370倍。中國工程院院士張亞勤在博鰲論壇上提出"2026年是智能體AI元年"。資本與政策9. 輝達與亞馬遜AWS簽百萬級GPU訂單,黃仁勳釋放兆美元市場訊號輝達在GTC 2026大會上宣佈與亞馬遜AWS達成大規模晶片供應協議,將在2027年前向AWS供應超過100萬塊GPU及相關晶片,涉及Blackwell、Rubin多代架構及Spectrum網路晶片。輝達CEO黃仁勳指出,到2027年相關市場規模預計達約1兆美元,較一年前的5000億美元預測翻倍。與此同時,Meta 2026年資本支出預計在1150億至1350億美元之間,較2025年增幅達87%,科技巨頭AI軍備競賽全面升級。10. SEMICON China 2026開幕,國產半導體裝置迎爆發期SEMICON China 2026於3月25日至27日在上海新國際博覽中心舉辦,1500家展商參展,北方華創、中微公司、拓荊科技等國產半導體裝置龍頭集中發佈新品。機構分析指出,在地緣政治影響下,國內晶圓廠擴產動作頻出,疊加國產化替代趨勢,2026年國產半導體裝置公司將迎來爆發期。佰維儲存此前宣佈以15億美元鎖定晶圓供應,進一步印證儲存晶片供應鏈的緊張態勢。今日科技圈的核心敘事是"AI從虛擬走向實體"——無論是蘋果開放Siri生態讓AI助手競爭進入平台化階段,具身智能標準發佈為機器人產業鋪路,還是儲存晶片漲價倒逼消費電子格局重塑,都指向同一個趨勢:AI正在重新定義從晶片到終端、從軟體到硬體的全產業鏈。 (醉語閒言)
#蘋果
#iOS27
#AI助手
262人
讚
留言
分享
官方認證
美股艾大叔
2026/03/27
•
Google財報告訴你AI是不是真未來?
本文繼續聊AI類股美股的另一個大牛——Google。聊輝達的時候,微哥說過,這一輪AI大爆發,首先的爆點是大語言模型,而大語言模型的爆發靠的是三要素,一個是神經網路演算法,一個是巨量的網際網路資料,一個是算力爆發。這三要素中的算力爆發的最大貢獻者,是輝達。三要素中的神經網路演算法,我們知道是被譽為AI之父的辛頓提出來的,也拿了圖靈和諾貝爾獎,而大模型之所以成功,還有Google演算法團隊的重要貢獻。為什麼這麼說呢?這一點微哥還是有點發言權的。因為微哥在工作中會用到很多人工智慧演算法,所以也會瞭解學習這些演算法發展的歷程極其對應的文章。雖然辛頓最早提出了神經網路演算法,但是目前大模型用的模型演算法架構,相比較辛頓提出來的那個版本,那已經升級改造了不知道多少個版本了。在這一過程中,目前大語言模型用到的最核心的Transformer架構,就是Google的研發人員提出來的。第一個大語言模型Bert,也是Google做出來的。第一個把圖像用於Transformer架構,從而使得大語言模型變成現在的多模態大模型,也是Google提出來的。所以從這裡可以看出來,Google對於大模型的誕生和發展,起到了很重要的工程作用。雖然第一個大語言模型ChatGPT是Open AI做出來的,但是業內人士都知道,Open AI的很多AI人才,都是從Google挖過去的。而且Google在大模型上的能力,很快就通過Gemini 3追了上來。這還是源自於Google在AI領域長期的資源投入,特別是人才的投入,使得其在AI領域的積累,很快就得到了體現。這也叫厚積薄發。比如大家熟知的Google做的AlphaGo擊敗了世界圍棋冠軍李世石。精準預測蛋白質結構,解決生物學50年難題的AlphaFold,還讓Goolge Deepmind老大哈薩比斯拿到了諾貝爾。這些工作,都可以體現出Google的AI能力,是全球首屈一指的。所以這也是這一輪AI革命到來,包括巴菲特、段永平、李錄、但斌、邱國鷺等投資大佬們紛紛加倉Google的一個很重要的原因。Google確實是一家對利潤之上還有追求的高科技公司,我們都知道,他是一家做搜尋發家的公司,當然現在的業務基本盤也仍然是搜尋。但是他還做了很多其它的工作,除了前面說的AI,我們現在所有非蘋果手機用的作業系統Android,也是出自於Google的免費開源。之前輝達文章說了,輝達AI產業鏈中上游賣基礎設施的。中下游無論行不行,都要買輝達的基礎設施。而Google是既處於AI產業鏈的上游,也處於產業鏈的中游,當然也有產品涉及到下游的。上游是因為Google雲,因為Google雲是給所有AI應用提供算力服務的。當然Google也要買輝達的裝置,但是資料中心的建立,是由Google這類雲廠商去做的。未來使用者買的token(AI算力的最基本單位),都是雲廠商提供的。除了買輝達的晶片,Google也在自己做,比如TPU就是非常有名。當然TPU當下主要是自用。中游就不用說了,Gemini這個大模型也是讓Google能夠後來居上,甚至略超ChatGPT的產品。當然大模型的版本也在不斷迭代和競爭之中,鹿死誰手,還未可知。但是大機率是有Google的一席之地的。下游比如Google眼鏡之類的智能硬體,當然這一塊還不怎麼賺錢啊。但是未來可能會大爆發。輝達的業績已經充分體現了AI類股,至少上游基礎設施建設上是沒有泡沫的,是有業績支撐的。那麼本文我們看看Google,作為AI類股應用最最重要的領導者,AI在Google2025年財報中有那些體現?是不是真的有泡沫呢?整體業績出色2026年2月,Google母公司Alphabet發佈2025年第四季度及全年財報,這份年報是Google生成式AI全面商業化元年裡,科技巨頭交出的最具代表性的答卷之一。Google第四季度,營收1138.28億美元,同比增長18%;淨利潤(非GAAP和GAAP一致)344.55億美元,同比增長30%。全面超出華爾街預期。全年營收首次突破4000億美元大關,達到了4028.36億美元,同比增長15%;淨利潤(非GAAP)達1402.8億美元,同比增長35%。GAAP淨利潤為1321.70億美元,低於非GAAP淨利潤,核心差異來自:剔除了歐盟反壟斷35億美元一次性罰款、Waymo自動駕駛業務21億美元一次性員工股權激勵費用、併購相關無形資產攤銷等非經營性、非經常性支出。分季度來看,公司營收增速逐季加速,Q1-Q4營收分別為902億美元、964億美元、1023億美元、1138.28億美元,同比增漲14%、15%、16%和18%。這個資料增速雖不如輝達那般炸裂,但也是很漂亮的,特別是那麼大體量,還能有這麼快的增速,而且淨利潤增速遠超營收增長。盈利增速遠超營收增速,核心源於兩方面:一是AI技術落地帶來的廣告變現效率提升,二是規模化效應下成本控製成效顯著,公司全年營運利潤率穩定在32%的行業高位。回顧過去5年,Google的營收是一直增長的,淨利潤除了2022年下滑之外,其餘年份都是增長的,且增速還不低。5年時間,營收增長1.6倍,淨利潤增長1.8倍,這麼大的體量,這個增速,還是非常可觀的。大象仍然在飛舞。所以千萬不要覺得,一個公司體量太大,就沒有增長空間了,其實不然,一定要認真去研究。就像邱國鷺說的,價值投資,不要去追星星,而是找月亮。大公司,各方面都很強的時候,即護城河足夠深的時候,往往還會有一定的成長空間,在便宜的時候介入,是很不錯的投資機會。Google2025年這份財務資料證明,Google並未因AI的巨額投入陷入“增收不增利”的困境,反而實現了技術投入與商業回報的正向循環。此外,2025年公司全年經營活動現金流淨額達1640億美元,自由現金流725.5億美元,期末現金及短期投資規模超1800億美元,無短期有息債務壓力,為AI技術研發、基礎設施投入提供了充足的安全墊。尤為值得關注的是Google的資本開支,2025年Google全年資本開支達914.47億美元,同比增長77%;2026年資本開支預計將達到1750-1850億美元,同比接近翻倍,其中60%將投向伺服器(含TPU晶片),40%用於資料中心及網路裝置建設,重點支撐AI基礎設施擴張與雲業務全球佈局。這就是輝達業績巨好的原因之一,雲廠商在瘋狂的砸錢搞AI,建資料中心。這麼巨額的資本開支,是非常罕見的。相當於把一年的淨利潤全部砸向AI,還把去年的資本積累也砸進去,可見科技巨頭們是多麼看好AI啊。所以AI在Google身上目前看來除了砸的錢多之外,業績上還是有幫助的,所以所謂泡沫,沒什麼好擔心。畢竟AI革命才剛剛開始,未來的想像空間確實非常大。AI技術從概念落地為核心增長動力,Google雲完成規模化盈利的關鍵跨越,同時公司以翻倍的資本開支計畫,宣告了All in AI的長期戰略決心。分業務看Google的業務主要包括Google服務、Google雲和其它的前沿業務,絕對核心就是Google服務,包括Google搜尋及其他廣告業務、YouTube生態。(一)Google服務:絕對核心壓艙石,AI啟動傳統業務新活力Google服務類股2025年全年營收約3370億美元,佔公司總營收的83.6%,營業利潤約1280億美元,佔總營業利潤的99.2%,始終是公司的現金牛核心。該類股的增長核心源於AI對傳統業務的深度改造,打破了市場對 “搜尋廣告進入成熟期” 的悲觀預期。細分業務中,Google搜尋及其他廣告業務是核心中的核心,全年營收2245.3億美元,同比增長13.3%。第四季度營收630.73億美元,同比增長17%,增速較上年顯著加快。增長的核心驅動力是Gemini大模型對搜尋體驗的全面重構,AI概覽與AI 對話模式顯著拉長了使用者會話時長,AI模式下的使用者查詢時長達到傳統搜尋的3倍。美國市場日均AI模式人均查詢量自發佈以來實現翻倍,極大地拓展了廣告庫存的展示機會,同時AI驅動的推薦演算法顯著提升了廣告轉化率,吸引了零售、旅遊等垂類廣告主的強勁投放。YouTube生態實現里程碑式突破,2025年全年廣告+訂閱總收入突破600億美元,第四季度廣告營收113.83億美元,同比增長9%,付費訂閱使用者總量達3.25億。其中,YouTube Premium、NFL賽事版權訂閱帶動訂閱業務高速增長,Shorts短影片的流量規模與單小時變現效率持續提升,形成了“廣告+訂閱”的雙輪驅動模式,成為Google服務類股的第二增長極。此外,Google訂閱、平台及裝置業務全年同比增長17%,Google One雲端儲存、硬體生態的協同效應持續增強,使用者付費粘性穩步提升。(二)Google云:爆發式增長領跑,AI驅動規模化盈利拐點確立Google雲是2025年年報中最亮眼的類股,徹底完成了從“虧損燒錢”到“規模化盈利+高增速增長”的轉型,成為公司最核心的增長引擎。全年Google雲營收608億美元,同比增長36%,第四季度營收176.64億美元,同比激增48%,增速遠超公司整體業務水平。特別是盈利端,Google雲全年營業利潤139億美元,同比大幅增長128%,全年營業利潤率升至24%,第四季度單季營業利潤率突破30%,較上年同期提升超12個百分點,規模化盈利的拐點完全確立。增長的核心驅動力完全來自AI,第四季度基於Google雲生成式AI模型的產品收入同比增長近400%,Gemini企業版解決方案、AI基礎設施服務的企業需求爆發。全年超10億美元的大額交易數量超過此前三年的總和,截至年末未履行訂單規模達2400億美元。目前已有超12萬家企業使用Gemini模型,全球前20大SaaS公司中95%都在使用Google雲的AI服務,Google雲憑AI差異化優勢,正在持續縮小與AWS、微軟Azure的市場份額差距。全球雲市場市佔率如下表,Google雲雖然排名第三,與前兩名有差距,但是增速最快。這裡就可以真正看出來AI是在實實際際的在為公司雲業務創造價值。此外,插個題外話,阿里雲其實雖然是國內老大,但是相比較前面三位大咖,還是很小的。(三)其它的前沿業務:前沿探索持續投入,商業化處理程序緩慢以Waymo自動駕駛為核心的Other Bets類股(還有生命科學Verily、量子計算、智慧城市等前沿領域),2025年全年營收3.7億美元,同比下降8%,依然處於長期投入、商業化緩慢的階段。Waymo作為全球自動駕駛行業的領軍者,2025年實現了規模化擴張,已在美國6個城市落地自動駕駛出行服務,周均載客量超40萬人次,2026年計畫登陸倫敦、東京等海外市場,開啟全球化商業化處理程序。該類股是Google佈局未來的核心抓手,在量子計算、AI醫療、機器人等前沿領域的持續投入,為公司長期增長儲備了第二增長曲線,也延續了Google“登月文化”的創新基因。潛在風險這份年報既展現了Google在AI時代的強大競爭力,也暴露了其面臨的四大核心風險。其一,全球監管與反壟斷風險持續高企,作為全球搜尋、廣告與Android生態的絕對龍頭,Google在歐盟、美國、印度等市場持續面臨反壟斷調查,若未來出現巨額罰款、強制業務分拆等不利裁決,將直接衝擊其核心商業模式。其二,行業競爭持續加劇,在AI大模型領域仍面臨OpenAI、Meta的激烈競爭,搜尋業務面臨微軟Bing+ChatGPT的持續挑戰,雲業務市場份額仍顯著落後於AWS與Azure,巨頭間的AI軍備競賽將持續推高投入成本。其三,巨額資本開支的回報不確定性,2026年近1800億美元的資本支出已超過2025年全年經營性現金流,若AI商業化進度慢於預期,將顯著壓制公司利潤率與自由現金流水平。其四,業務結構單一風險仍未完全化解,2025年廣告收入佔公司總營收的比例仍超73%,宏觀經濟波動對廣告主預算的影響,也會給公司業績帶來不確定性。總結整體而言,2025年是Google從“全球搜尋巨頭”向“AI全端科技巨頭(“模型-基礎設施-產品-商業化”)”轉型的關鍵一年,這份年報證明了Google不僅擁有AI時代的核心技術能力,更具備將技術轉化為商業回報的成熟體系。同時以超預期的資本開支計畫,宣告了其在AI時代的長期競爭決心。儘管面臨監管、競爭與投入回報的多重挑戰,但憑藉深厚的技術積累、龐大的現金流儲備與全場景的產品生態,Google依然是AI時代最具競爭力的科技巨頭之一。後續業績核心,將取決於AI技術的迭代速度與商業化落地的最終效率。對於Google,微哥也會持續保持關注和分享。這些巨頭們財報後的資料,對於我們看AI發展會起到非常非常重要的作用,而不是盲從。 (微微價值投資)
#Google
#財報
#AI
222人
讚
留言
分享
官方認證
RexAA
2026/03/27
•
Google扔出技術核彈,記憶體需求將崩塌?
全球AI算力競賽出現重大技術拐點!近日,Google公佈的全新AI內存壓縮技術“TurboQuant”,引發了業界的極大關注。該技術宣稱能在不犧牲模型精準度的前提下,將生成式AI推理階段最吃資源的“鍵值快取”(KV Cache)空間需求減少到原來的1/6,並讓計算速度暴增8倍。這一突破性的技術,也引發了整個市場對於記憶體需求將斷崖式下跌的擔憂,美光、Sandisk、西部資料等儲存相關美股紛紛大跌。TurboQuant究竟是什麼?在LLM(大語言模型)推理過程中,為了處理長文字,系統必須將過往對話資訊存放在KV Cache中,這如同AI的“隨身筆記本”。隨著對話長度增加,這本筆記本需要儲存的資訊會迅速擠爆AI GPU的高頻寬內存(HBM),成為AI運行的最大瓶頸。Google的TurboQuant技術的核心優勢在於解決了傳統記憶體壓縮技術產生的“內存噪聲”(Overhead)。該技術由兩大關鍵部分組成:PolarQuant(極坐標量化):傳統向量以XYZ坐標標註,運算繁瑣。Google改為採用“極坐標”邏輯,將複雜的方位簡化為“半徑”與“角度”。這好比將原本要標記“往東走3公里、再往北走4公里”的資訊,簡化為“以37度角走5公里”。這種幾何結構的轉換,大幅減少了資料處理的負荷。QJL(Quantized Johnson-Lindenstrauss):這是一套極其精簡的1bit數學校正機制。僅利用額外的1bit來精準修正壓縮過程中的殘餘誤差,讓模型即使被壓縮到僅剩3bit,在LongBench等多項基準測試中仍能達成“零精度損失”。△在Llama-3.1-8B-Instruct模型上,TurboQuant 在LongBench基準測試中展現出強大的 KV 快取壓縮性能,優於各種壓縮方法 (括號中標明了位寬)。Google選擇將這套足以成為核心競爭力的技術完全開源,不僅最佳化了Gemini等大型模型的檢索效率,更為其他大模型減少對於記憶體依賴,加速端側AI發展鋪平道路。根據實測,在輝達(NVIDIA)H100加速器上,TurboQuant相比未壓縮方案,性能最高提升了8倍,且無須重新訓練模型即可直接掛載,堪稱AI部署的降本增效的“神兵利器”。△在NVIDIA H100加速器上,TurboQuant 在計算鍵值快取中的注意力邏輯值方面表現出顯著的性能提升,在各種位寬等級上均優於高度最佳化的JAX基線。△TurboQuant 展現出強大的檢索性能,在GloVe資料集 (d=200)上實現了相對於各種最先進的量化基線的最佳1@k 召回率。Cloudflare首席執行長Matthew Prince等人將TurboQuant稱為Google的“DeepSeek時刻”,認為其有望像DeepSeek一樣,通過極高的效率收益大幅拉低AI的運行成本,同時在結果上保持競爭力。記憶體需求會降低,還是會帶來更大需求?針對TurboQuant技術會引發了整個市場對於記憶體需求斷崖式下跌的擔憂,產業專家與研究機構也給出了截然不同的看法:富國銀行(Wells Fargo)分析師Andrew Rocha指出:“當context window(上下文窗口)越來越大,KV Cache的爆炸性成長原本是推升內存需求的保證。但TurboQuant正在直接攻擊這條成本曲線,一旦被廣泛採用,資料中心對內存容量的規格要求將被打上大問號。”不過,知名投行摩根士丹利(Morgan Stanley)和研究機構Lynx Equity Strategies則給出了截然不同的觀點,摩根士丹利認為市場可能忽視了“效率提升帶動總量增長”的經濟規律。當AI計算所需的記憶體成本降低到原本的1/6,這將會使得原本因記憶體太貴而無法上線的AI應用(如長文字翻譯、複雜程式碼生成)需求大規模爆發,反而會填補、甚至超越被壓縮掉的記憶體缺口。這就是傑文斯悖論(Jevon's paradox),即當技術進步提高了使用資源的效率(減少任何一種使用所需的數量),但成本降低導致需求增加,令資源消耗的速度不減反增。摩根士丹利分析師約瑟夫·摩爾(Joseph Moore)及其團隊在周四發佈的投資者報告中指出: “有報導稱Google的TurboQuant會導致記憶體使用量減少了到原來的1/6,但這忽略了他們僅僅指的是KV Cache,而不是整體記憶體使用量。“值得注意的是,Google的 Gemini 3 和 2.5 Pro 模型都擁有 100 萬個Token的上下文窗口,但Google曾透露,他們使用 Gemini 1.5 Pro 測試過高達 1000 萬個Token的上下文窗口,並取得了非常好的結果,但由於推理成本較高,他們最終沒有發佈該模型,”摩爾說道。“因此,我們預計,隨著此類創新以及其他技術的出現,成本將會降低,這項技術將被用於服務於更智能、計算密集型的產品。”摩根士丹利進一步指出,TurboQuant主要最佳化的是“推理階段”的快取,並非“訓練階段”的模型權重。因此,對於支撐AI核心訓練的HBM(高頻寬內存)採購邏輯影響相對有限。相比之下,TurboQuant對手機、筆記型電腦等終端裝置的人工智慧部署更具意義。由於移動裝置的內存有限,這類高效壓縮技術能讓更強大的AI模型在手機端運行,這反而會刺激各類終端裝置進行內存規格的全面換代。Lynx Equity Strategies 的觀點認為,雖然人工智慧提供商需要創新來解決推理中隨著Token上下文長度增加而出現的瓶頸問題,但由於供應限制,這在未來三到五年內並不會減少對記憶體和快閃記憶體的需求。 (芯智訊)
#Google
#記憶體
#AI算力
265人
讚
留言
分享
官方認證
美股艾大叔
2026/03/27
•
20歲女生引爆美股至暗時刻!小扎1200億美元一夜沒了,七巨頭迎史上最狠審判
周四,在1月底創出歷史新高之後,美股迎來了最黑暗的一天,科技股集體下跌。華爾街普遍認為,這與一起由20歲女性提起的里程碑式訴訟有關,或意味著科技巨頭們未來將面臨巨大的法律風險。美股“七巨頭”慘跌周四,華爾街的基準指數標普500收跌1.74%,納斯達克綜合指數更是大跌2.38%,雙雙創下1月20日以來最大跌幅和六個月以來的新低。值得注意的是,納斯達克綜合指數已較去年10月下旬的峰值下跌超過10%,跌破了所謂“技術性調整”的門檻。其中,科技股集體重挫。Meta Platforms(META)跌幅居前,暴跌7.96%創出11個月新低,單日跌幅僅次於去年10月30日的11.34%。一天之內,Meta總市值縮水1200億美元,至1.39兆美元。另外,輝達(NVDA)下跌4.16%;特斯拉(TSLA)下跌3.59%;Google(GOOG)下跌3.06%;亞馬遜(AMZN)下跌1.97%;微軟(MSFT)下跌1.37%創出11個月新低。“七巨頭”中僅有蘋果(AAPL)收紅,微漲0.11%。更慘的是,有資料顯示,截至周二收盤,“七巨頭”的股價都比過去52周高點下跌了兩位數百分比。其中,微軟慘上加慘,較高點下跌超過33%。對此,部分華爾街分析師表示悲觀。“我不太確定現在是不是買入‘七巨頭’的好時機——我認為它們還有更大的下行風險,”Slatestone Wealth首席市場策略師 Kenny Polcari表示。“就算以後它們大幅上漲,我現在也不會貿然入場。我覺得我的錢還有其他地方可以投資,”他補充道。20歲女性起訴Meta贏了對於“七巨頭”的拋售潮,華爾街有很多解釋,包括:美伊戰爭帶來的不確定性、油價上漲引發頑固通膨、聯準會維持高利率、巨額的AI基建支出承諾引發擔憂等等。但最新最危險的一根導火線,正是一位20歲女性針對Meta的里程碑式訴訟。加州陪審團周三裁定,Meta和Google應對一名自幼年時便沉迷於社交媒體的女性的抑鬱和焦慮負責,並賠償她600萬美元。這一罕見的判決讓矽谷為其在加劇青少年心理健康危機中所扮演的角色承擔了責任。陪審團裁定,Meta和Google應向該女子支付300萬美元的補償性賠償金和300萬美元的懲罰性賠償金,其中Meta應承擔70%的賠償金。本案原告是一名20歲的女性,姓名首字母為“KGM”。中為KGMKGM在二月份作證時表示,她早期使用社交媒體導致她對這項技術上癮,並加劇了她的抑鬱症和自殺念頭。她說,由於使用社交媒體,她患上了身體畸形恐懼症——一種經醫生診斷的臨床疾病。今年二月,KGM在庭審中表示,她從6歲開始使用YouTube,9歲開始使用Instagram。到小學畢業時,她已經在YouTube上發佈了284個視訊。KGM告訴法庭:“我不再與家人聯絡,因為我把所有時間都花在了社交媒體上。”她還補充說,她從10歲開始就患有焦慮症和抑鬱症,後來被確診患有這兩種疾病。KGM表示,一些功能,例如通知,會讓她感到“興奮”,而律師則認為這些功能是故意設計成讓人上癮的。KGM說,她有時會在上學期間去廁所,只是為了查看通知。KGM還表示,她幾乎在所有照片上都使用了Instagram濾鏡,這些濾鏡會改變照片的容貌。她說,在開始使用社交媒體和濾鏡之前,她從未體驗過與身體畸形恐懼症診斷相關的負面情緒。1月下旬,Snapchat的母公司Snap Inc.已就此案達成和解。和解的具體細節尚不清楚。對這一判決結果,Meta以及Google旗下的YouTube發表聲明表示異議。他們表示將考慮採取法律行動,包括提起上訴。社媒平台股價暴跌Meta近期的麻煩還不止這一起,周二,經過近七周的審判,新墨西哥州的一個陪審團裁定,Meta對兒童心理健康有害,並違反了該州的消費者保護法。陪審團支援州檢察官的論點,即擁有Instagram、Facebook和WhatsApp的Meta將利潤置於安全之上。陪審團認定,Meta違反了該州《不正當競爭法》的部分條款,指控該公司隱瞞了其平台上存在的兒童性剝削風險及其對兒童心理健康的影響,裁定Meta必須支付3.75億美元的賠償金。此外,超過40位州檢察長對Meta提起訴訟,聲稱Meta故意設計令人上癮的Instagram和Facebook功能,加劇了年輕人的心理健康危機。受此裁決影響,Reddit(RDDT)和Snap Inc.(SNAP)等其他社交媒體平台的股價周四也出現暴跌,分別下跌超過8.86%和10.69%,分別創出9個月新低和歷史新低。歷史性判決影響科技巨頭的走勢雖然對於Meta這樣一家市值1.5兆美元、年淨收入超過600億美元的公司來說,這些處罰微不足道。但從法律角度和對科技巨頭的影響來說,這是三起具有里程碑意義的訴訟案件。這也是陪審團首次認定社交媒體應用程式應被視為缺陷產品,因為它們被設計用來利用兒童和青少年正在發育的大腦,這一判決可能會為成千上萬起類似的訴訟定下基調。哈佛大學法學院講師蒂莫西·埃德加將這些結果描述為“一個重大的分水嶺事件”,它“代表著美國人看待大型科技公司方式的巨大轉變”。“這可以說是多年來日益增長的懷疑情緒的最終體現,”埃德加說。“這可能會導致公司改變應用程式和平台的運作方式,”Emarketer的高級社交媒體分析師Minda Smiley表示。任何對產品的重大改變“都可能——而且很可能會——改變廣告商希望在這些平台上展示廣告的方式,從而對公司的盈利產生重大影響。”這些裁決也預示著《通訊規範法》第230條(保障言論自由)可能面臨重新審視。新墨西哥州總檢察長勞爾·托雷斯表示:“這些案件很有可能促使國會重新審視第230條款,即使不廢除它,也會對其進行大幅修改。”托雷斯說:“我認為陪審團對公司處以罰款並追究其責任,向華盛頓特區的政策制定者發出了一個重要的訊號,表明社區中存在著亟待解決這些問題的緊迫性。”美國參議院司法委員會資深成員、伊利諾伊州民主黨參議員迪克·德賓支援改革第230條款,並表示最新的判決加強了他的立場。“新墨西哥州和加利福尼亞州接連做出的這些決定表明,大型科技公司已經變成了大型菸草公司,”德賓在一份聲明中說道。他指的是上世紀90年代,當時菸草公司因向公眾隱瞞其產品的危害而被勒令支付數十億美元的罰款。“現在,國會是時候徹底廢除第230條了。” (美股財經社)
#Meta
#輝達
#Google
244人
讚
留言
分享
官方認證
RexAA
2026/03/26
•
Google一篇論文引爆儲存晶片崩盤!AI記憶體需求暴降6倍,推理狂飆8倍
【新智元導讀】Google一篇論文,直接讓儲存巨頭們「集體失眠」,一夜市值蒸發幾百億!最新部落格官宣TurboQuant演算法,直接將快取壓到3-bit,記憶體佔用只有1/6。一篇論文攪動兆市場,儲存晶片的天塌了...誰也未曾料到,本周三美股開盤,儲存晶片類股遭遇「黑色時刻」,巨頭股價全線飄綠——截至收盤,美光科技下跌4%,西部資料下跌4.4%,希捷下跌5.6%,閃迪更是重挫6.5%。引發這場拋售地震的導火線,正是Google發佈的TurboQuant壓縮演算法。眾所周知,大模型跑起來時,KV快取(KV cache)簡直是記憶體界的「吞金獸」。為了不重複計算之前的Token,LLM維持一份「運行記憶」,隨著對話越來越長,這份記憶會像滾雪球一樣迅速膨脹。Google的TurboQuant,給出了一套極其「暴力」的瘦身方案:首先,把KV快取裡的高維向量做一次「旋轉」,再換一套極坐標系來描述,記憶體開銷直接歸0。然後,用僅僅1-bit額外空間,放一個數學「校正器」進去,把壓縮帶來的系統性偏差精確抹平。TurboQuant論文將於下月舉辦的ICLR 2026上正式發表結果非常頂:不用任何重訓,TurboQuant把快取壓縮至喪心病狂的3-bit。這麼一來,KV快取開銷驟降6倍,關鍵是,推理表現幾乎零損耗。在H100上,相較於32-bit基線,4-bit的計算注意力速度飆升了8倍。不僅省空間,還跑得更快了。一時間,全網陷入瘋狂。照這樣說,16GB Mac mini又能用來跑大模型了。這一幕,現實版「魔笛手」(Pied Piper)真的降臨了!記憶體佔用暴降6倍,儲存巨頭集體重挫對於晶片儲存巨頭來說,這無異於一場「底層邏輯大地震」。美光、西數等巨頭的估值基石,向來建立在「AI伺服器單機容量紅利」之上。一旦單次推理任務的位元(Bit)需求發生結構性驟降,高性能儲存的增長動能將直接面臨「縮水」危機。直白講,GoogleTurboQuant出世,直接衝擊了晶片儲存巨頭們,備受追捧的AI硬體邏輯。KV快取暴降6倍,速度提升8倍,意味著每台伺服器所需的高端記憶體晶片可能變少。Cloudflare首席執行長Matthew Prince甚至將其形容為「Google的DeepSeek時刻」!KV快取,大模型瘋狂吞金要理解TurboQuant的份量,先得搞清楚它瞄準的靶心——KV快取到底有多吃記憶體。大模型生成每一個Token時,都要「回看」之前所有Token的資訊。為了避免重複計算,模型把每一層注意力機制產出的Key和Value向量全部快取起來,形成一張高速「速查表」。問題在於,這張表隨對話長度線性膨脹。當上下文從4K擴展到128K甚至百萬等級,KV快取吞掉的視訊記憶體往往反超模型參數本身,成為推理階段最大的記憶體瓶頸。傳統的解法是向量量化,也就是把16-bit浮點數壓縮成4-bit整數。但幾乎所有傳統方法都需要為每一小塊資料額外儲存一組全精度的量化常數,每個數字多吃1到2個bit。壓到4-bit,實際可能是5到6-bit,壓縮的意義被自己的「手續費」蠶食了一大截。而TurboQuant的野心,正是徹底消滅這筆附加費。論文地址:https://arxiv.org/pdf/2504.19874兩步「絕殺」極坐標變換 + 1-bit誤差校驗TurboQuant的核心,是一個精巧的兩階段流程。第一階段:PolarQuant換一個坐標系看世界傳統量化在笛卡爾坐標系(X、Y、Z軸)下操作,每個軸的取值範圍不固定,必須額外儲存歸一化參數來「對齊」。換句話說,每一小塊資料都要自帶一張「比例尺」,而這張比例尺本身就很佔空間。PolarQuant的第一步,是對資料向量做一次隨機旋轉。這一步看似隨意,背後的數學意義卻很深:在高維空間裡,隨機旋轉會讓向量的每個坐標份量收斂到一種高度集中的Beta分佈,而且各份量之間近似獨立同分佈。不管原始資料長什麼樣,轉完之後,統統變成「一個模子刻出來的」。PolarQuant就像一座高效的壓縮橋樑,能把笛卡爾坐標輸入轉換成緊湊的極坐標「速記」形式,方便後續的儲存和處理這讓複雜的高維量化問題,降格為一組簡單的一維標量量化問題。Google只需要提前算好不同位寬下的最優碼本,推理時直接查表即可,不需要為每一組資料單獨計算任何東西。然後,PolarQuant把旋轉後的向量「笛卡爾坐標系」轉換成「極坐標系」。舉個栗子,傳統方法描述一個位置:向東走3個街區,再向北走4個街區。PolarQuant則說:朝37度方向直接走5個街區。轉換之後,資料被拆成兩組資訊:一個半徑(代表訊號強度),一組角度(代表訊號方向)。接下來才是真正精妙的一步,即「遞迴配對」。PolarQuant把坐標兩兩分組進行極坐標變換,得到一組半徑和一組角度;再把這些半徑兩兩配對,做第二輪極坐標變換;如此遞迴往復,最終整個高維向量被濃縮為一個最終半徑和一系列描述性角度。因為角度的分佈模式在數學上是已知且高度集中的,整個過程不需要儲存任何歸一化常數。開銷,歸零。這一步消耗了絕大部分的壓縮預算(分配b-1個bit),專注於把均方誤差(MSE)壓到最低,精準捕捉原始向量的核心資訊。第二階段:QJL用1 - bit消滅殘餘誤差再精準的壓縮,也會留下誤差。而且這裡有個隱蔽的陷阱:一個在MSE意義上最優的1-bit量化器,在高維空間中會引入一個2/π的乘性偏差。也就是說,你把資料壓得很小、失真也很低,但用它算內積(注意力分數的核心操作)時,結果是系統性偏斜的。TurboQuant的第二步,專門來「殺」這個偏差。它將Johnson-Lindenstrauss變換應用到第一階段的殘餘誤差上,把每個誤差值壓縮為一個符號位:+1或-1。然後配合一個特殊的估計器——用高精度的Query向量和低精度的壓縮Key做聯合計算。這套組合拳,在數學上被證明是「無偏」的:壓縮前後的內積期望值嚴格相等。只消耗最後1個bit,就把第一階段殘留的系統性偏差徹底抹平。兩步合璧的效果TurboQuant在僅僅3-bit的總預算下,實現了接近無損的壓縮效果,全程零額外開銷。論文給出了嚴格的理論證明:TurboQuant的MSE失真率,在所有位寬下都控制在理論絕對下限的約2.7倍以內。在1-bit極端壓縮的情況下,更是只有最優值的約1.45倍。換句話說,它幾乎貼著資訊理論的「物理極限」在運行。整套演算法是「資料無感知」(data-oblivious)的——不需要任何校準資料,不依賴任何預訓練,對資料集零假設。同時,演算法內部全程使用向量化運算,避免了傳統方法中緩慢的二分尋找,對GPU加速器極其友好。拿來即用,即插即飛。跑分全面碾壓,大海撈針完美通關光說原理不夠,得看實戰。Google在LongBench、Needle In A Haystack、ZeroSCROLLS、RULER和L-Eval五大長上下文基準測試上,對TurboQuant進行了嚴格驗證,測試模型覆蓋Gemma、Mistral和Llama-3.1-8B-Instruct。結果相當硬核。在LongBench的問答、程式碼生成、文字摘要等綜合任務中,3-bit配置下的TurboQuant,性能全面優於KIVI等基線方法,甚至逼近全精度模型的表現。最殘酷的考驗來自「大海撈針」——在10萬Token的文字海洋裡,精準撈出一句特定資訊。在4倍壓縮比下,TurboQuant的檢索精度一路保持到10.4萬Token,與全精度模型完全一致。6倍壓縮之後,模型該記住的,一個字都沒丟。在H100 GPU上,4-bit TurboQuant計算注意力logits的速度,相比32-bit未量化基線提升了8倍。需要說明的是,這個8倍是注意力計算環節的加速比,並非端到端推理的整體提速,但注意力計算恰恰是長上下文推理中最吃資源的那一環。Google特別強調,TurboQuant引入的執行階段開銷「幾乎可以忽略不計」。這也好理解——演算法本身不涉及任何資料集相關的查表或搜尋操作,純粹是矩陣運算,天然適合GPU平行。在高維向量搜尋方面,TurboQuant也沒有放過對手。在GloVe資料集(200維)上,它擊敗了PQ和RabbiQ兩大前沿方法,拿下最優1@k召回率。而那些對手還依賴龐大的密碼本和針對性調優,TurboQuant全程「裸奔」通殺。這個結果的含金量在於:向量搜尋是Google搜尋、推薦系統、廣告系統等核心產品的底層引擎。TurboQuant在這個賽道上的優勢,意味著它不只是一個學術玩具,而是有明確的工程落地路徑。部落格官宣這天,獨立開發者在Reddit上曬出了復現成果:基於PyTorch和自訂Triton kernel,在RTX 4090上用2-bit精度跑Gemma 3 4B,輸出與未壓縮版本逐字元一致。論文寫的「零損耗」,社區用程式碼投了票。另一位開發者Prince Canuma實測後驚嘆道:「面對8.5K到64.2K不等的大跨度上下文,TurboQuant讓模型對視訊記憶體實現極致壓縮」。2.5-bit量化讓KV快取縮小了4.9倍;3.5-bit量化也實現了3.8倍的縮小。Google一張紙,儲存晶片天塌了?儲存晶片的天,真的塌了嗎?大機率沒有。科技行業有一條反覆被驗證的鐵律——傑文斯悖論:資源使用效率越高,總消耗量反而越大。KV快取壓縮6倍,最可能的結果不是少買記憶體,而是同樣的視訊記憶體跑更長的上下文、更多的並行、更大的模型。雖然壓縮演算法還從未從根本上改變過採購量,但有兩件事確實在發生改變。第一,推理成本的地板價被改寫了。TurboQuant的三篇論文將在ICLR 2026和AISTATS 2026上公開發表,核心思想向全行業敞開。當3-bit能做到過去16-bit的事情,受益的是每一個做推理服務的公司,感到壓力的是那些指望「量價齊升」永遠持續的儲存廠商。第二,從論文到落地的路正在縮短。TurboQuant目前僅在8B參數等級的開源模型上得到驗證,70B以上的模型、MoE架構、百萬級上下文窗口上的表現尚未證實。Google也沒有宣佈它已部署到Gemini或任何生產系統中。這次Google部落格一發出,不到24小時,就有獨立開發者從論文出發寫出了完整實現並跑通驗證。在算力軍備競賽裡,最鋒利的武器未必是更大的晶片,也可能是更聰明的數學。技術不關心股票程式碼,只關心位元的邊界在那裡。 (新智元)
#Google
#晶片
#AI記憶體
236人
1 則留言
讚
留言
分享
百貓爭鳴
TurboQuant - Extreme KV Cache Quantization · ggml-org/llama.cpp · Discussion #20969
https://share.google/errGlmfVU5rSvVqNd
2026/03/27
讚
回覆
官方認證
RexAA
2026/03/26
•
WWDC26押注AI!蘋果聯手Google,能否拯救自家智能體驗?
蘋果突然打破保密慣例,提前官宣今年WWDC開發者大會將全面聚焦AI,這場定在6月的科技盛會,不再藏著掖著,直接把智能升級擺到檯面。大會採用線上線下結合形式,核心不發新硬體,全部圍繞系統AI革新展開,而這一切的伏筆,早在年初蘋果與Google達成的合作中就已埋下。不少網友看到消息第一反應是,終於等到蘋果認真做AI了,之前的智能功能更像小打小鬧,這次該拿出真東西了。全新升級的智能助手會是整場大會的絕對主角,互動邏輯徹底重構,告別單一指令模式,支援長時間上下文記憶,還能看懂螢幕內容完成跨應用操作。響應速度會有明顯提升,搭配全新視覺動效,互動體驗更貼近日常聊天,不再是生硬的一問一答。同時iOS、macOS全平台系統都會迎來底層AI改造,介面特效也會和智能互動深度適配。蘋果選擇牽手Google大模型,本質是認清了自研路線的現實侷限。過去一年多,自家智能功能推進緩慢,落地可用的功能寥寥無幾,國內市場更是遲遲無法上線。原本規劃的多個AI項目陸續收縮,團隊方向從多點佈局,轉向以智能助手為唯一核心入口,人才流失與內部調整,也讓蘋果不得不加快求變的腳步。自研隱私優先的路線固然穩妥,但大模型能力的差距,單靠系統整合很難快速追上。與其花費數年追趕,不如直接接入成熟技術,用最短時間補齊短板。合作模式也延續了蘋果一貫的謹慎,核心資料優先在裝置端處理,雲端傳輸全程加密,既借到外部技術優勢,又守住隱私底線,算是兼顧效率與安全的折中方案。這次戰略轉向,讓蘋果放棄在大模型層面正面競爭,回歸最擅長的系統整合與生態閉環。把成熟AI能力裝進完整的裝置生態裡,理論上能打造出獨一份的流暢體驗。能不能成功,關鍵要看兩點。一是新版智能助手能否真正達到主流AI助手的理解與對話水平,擺脫使用者心中不夠智能的固有印象。二是國內市場的落地進度,目前國行裝置雖有入口但功能受限,面對國產廠商全場景AI普及,蘋果如果遲遲不能補齊體驗,很容易丟掉市場優勢。按照目前進度,今年二季度的系統版本會是關鍵節點,國行智能功能有望分批推送,且僅適配高端機型,入門裝置因算力限制無緣核心體驗。WWDC26不僅是一次功能發佈會,更是蘋果在AI賽道重新站位的亮相。牽手Google只是第一步,後續功能打磨、本地化適配與生態拓展,才是決定能否重回領先的核心。當硬體創新逐漸趨緩,AI體驗會成為高端裝置的新分水嶺,蘋果能否靠這次轉型守住優勢,今年6月的大會,就能看出大致答案。 (數位星運)
#AI
#蘋果
#Google
261人
讚
留言
分享
官方認證
美股艾大叔
2026/03/26
•
Google AI記憶體技術工程化失敗?TurboQuant“橫空出世”,科技圈呼“Google版DeepSeek”、“真實版Pied Piper”!華爾街“呵呵,抄底記憶體股”!
GoogleAI記憶體壓縮技術TurboQuant橫空出世,宣稱將大模型快取記憶體縮減6倍、性能提升8倍,瞬間引爆市場恐慌——美光科技、閃迪等儲存巨頭盤中重挫逾5%。然而華爾街投行卻高呼"抄底":摩根士丹利援引傑文斯悖論指出,效率革命非但不會壓縮硬體需求,反將啟動更龐大的AI部署規模,儲存需求長期基本面"中性偏正面"。Google發佈的一項新型AI記憶體壓縮技術,不僅在科技界引發了對底層算力效率革命的狂歡,也讓美股儲存晶片類股經歷了一場劇烈的估值重估,但華爾街機構卻從這場恐慌中看到了買入良機。周三,受該技術可能大幅削減AI硬體需求預期的衝擊,美股儲存晶片類股盤中遭遇重挫。截至收盤,儲存晶片與硬體供應鏈指數下跌2.08%,閃迪、美光科技等頭部企業均顯著收跌,凸顯出市場對需求前景的防禦性反應。然而,在科技圈將這一突破性技術捧為“真實版Pied Piper”和“Google版DeepSeek”的同時,華爾街投行的表態卻截然不同。多位分析師指出,該技術的實際影響被市場過度計價,並直言投資者應藉機買入回呼的記憶體概念股。儘管實驗室資料展示了驚人的壓縮效率,但從宏觀經濟學與算力部署的真實演進來看,這項旨在打破AI記憶體瓶頸的技術,最終可能不僅不會摧毀儲存需求,反而會成為推動行業進一步擴張的催化劑。儲存類股應聲下挫Google發佈名為TurboQuant的記憶體壓縮演算法後,市場對儲存硬體長期需求的擔憂迅速蔓延,導致相關資產遭到拋售。周三盤中,儲存晶片類股集體下探。閃迪一度大跌6.5%,美光科技跌4%,西部資料和希捷科技分別跌超4%和5%。隨著市場情緒在尾盤有所消化,相關個股跌幅縮小。截至收盤,閃迪和美光科技均跌超3.4%,希捷科技收跌2.6%,西部資料跌幅縮小至1.6%。當日,儲存晶片與硬體供應鏈指數報收於113.03點,盤中一度觸及109點的日內低點。引發市場恐慌的直接原因,是Google宣稱TurboQuant可在不損失準確性的前提下,將大型語言模型執行階段的快取記憶體佔用至少減少6倍。在高度依賴硬體規模擴張的AI軍備競賽邏輯下,任何可能削減實體記憶體採購量的技術進步,都足以讓本已處於高估值的晶片類股面臨拋壓。“真實版Pied Piper”與“Google版DeepSeek”在科技業界,TurboQuant的發佈被視為解決大語言模型高昂運行成本的重要里程碑。該技術專為解決AI系統中的鍵值快取(KV Cache)瓶頸而設計,核心是將原本佔用大量空間的快取壓縮至3位元。據媒體報導,Google採用兩步壓縮法:先通過PolarQuant技術將資料向量轉換為極坐標以消除額外的歸一化開銷,再利用量化演算法QJL消除殘差誤差。在採用Gemma和Mistral等開源模型的測試中,該演算法不僅實現了6倍的記憶體縮減,在輝達H100 GPU上的性能較未量化的32位方案更是提升了最高8倍。這一驚豔的資料在網際網路上引發熱議,人們將其戲稱為“真實版Pied Piper”——即HBO經典美劇《矽谷》中那家憑藉無失真壓縮演算法顛覆行業規則的虛構初創公司。Cloudflare首席執行長Matthew Prince等人則將其稱為Google的“DeepSeek時刻”,認為其有望像DeepSeek一樣,通過極高的效率收益大幅拉低AI的運行成本。華爾街無懼衝擊,高呼“抄底”面對科技圈的狂熱與二級市場的拋售,華爾街投行表現出顯著的冷靜,並認為市場反應過度。Lynx Equity Strategies分析師KC Rajkumar對該技術的“顛覆性”提出質疑。他在給客戶的報告中指出,媒體對該技術的報導存在誇大成分。他表示,當前的推理模型早已廣泛採用4位元量化資料,Google所謂的8倍性能提升是建立在與老舊的32位模型對比之上的。他強調,這些先進的壓縮技術僅僅是為了緩解算力瓶頸,並不會破壞未來三到五年內因供應受限而依然堅挺的記憶體與快閃記憶體需求。為此,他維持對美光科技700美元的目標價及買入評級,並明確表示建議“在因Google消息引發的回呼中買入”。Wells Fargo分析師Andrew Rocha同樣指出,儘管TurboQuant直擊AI系統的記憶體成本曲線,但歷史經驗表明,壓縮演算法的存在從未從根本上改變硬體採購的整體規模,目前AI記憶體的需求基本面依然強勁。傑文斯悖論再現,長期需求或受提振除了指出市場反應過度外,機構還從更長遠的經濟學視角重新評估了TurboQuant的影響。摩根士丹利在分析中指出,TurboQuant僅作用於推理階段的鍵值快取,完全不影響模型訓練任務,也不影響模型權重所佔用的高頻寬記憶體(HBM)。該技術的核心意義在於提升單GPU的吞吐量,使相同硬體能支援更長的上下文或更大的批處理規模。摩根士丹利進一步援引了“傑文斯悖論”(Jevons Paradox)來闡釋這一現象:技術效率的提升往往會降低使用成本,從而激發出更龐大的總需求。通過大幅降低單次查詢的服務成本,TurboQuant能夠讓原本只能在雲端昂貴叢集上運行的模型遷移至本地,有效降低AI規模化部署的門檻。這意味著,效率提升將啟動更多原本受制於成本而無法落地的AI應用場景。投行總結稱,該技術重塑了AI部署的成本曲線,對算力與記憶體硬體的長期影響不僅不是利空,反而呈現出“中性偏正面”的積極訊號。 (invest wallstreet)
#Google
#AI記憶體
#TurboQuant
245人
讚
留言
分享